人大、清华DeepAnalyze,让LLM化身数据科学家
来自人大和清华的研究团队发布了DeepAnalyze,首个面向自主数据科学的 agentic LLM。DeepAnalyze引起了社区内广泛讨论,一周内收获1000多个GitHub星标、20w余次社交媒体浏览量。
清华 llm deepanalyze llm化身 清华dee 2025-10-30 19:41 5
来自人大和清华的研究团队发布了DeepAnalyze,首个面向自主数据科学的 agentic LLM。DeepAnalyze引起了社区内广泛讨论,一周内收获1000多个GitHub星标、20w余次社交媒体浏览量。
清华 llm deepanalyze llm化身 清华dee 2025-10-30 19:41 5
注:「世界模型」(World Model)的热度,从年初开始持续至今。这个概念也已经横跨具身智能、自动驾驶、游戏、视频生成等领域,逐渐成为了 AI 领域下一个竞争焦点。
大家好,我是喜欢研究AI的一枚产品经理平时主要从事与AI、大模型、智能座舱等相关工作。在这里,我会持续跟大家分享AI相关的前沿技术、产品体验、个人心得等有营养有价值的信息另外,我还超爱自驾游~
格式混乱:即使在相同的提示下,不同样本的输出格式也常常不一致,从而增加了解析和结构化输出的难度;语义断裂:坐标是数值,与图像块之间缺乏直接语义关联,模态错位;幻觉频发:模型容易生成“图中没有的框”或重复预测同一物体。
在华为旗下的学术平台“黄大年茶思屋”上,有技术专家甚至指出,该模型的核心构件视觉encoder的高效解码,为光计算和量子计算在LLM(注:大语言模型)领域的引入提供了明确的技术路径。
天然钙离子通道对生命至关重要,但其复杂性和脆弱性限制了深入研究和应用。华盛顿大学的 David Baker 团队(第一作者为刘禹来)利用人工智能首次从头设计并构建了全新的功能性钙离子通道,证明AI能够从第一性原理出发创造复杂的生物分子机器。
我们可以让标准的、非前沿的大型语言模型(LLM)比前沿模型,也就是所谓的“推理模型”更好,而无需任何额外的训练。这是否意味着过去一年的所有进展……都是多余的?
最近,苹果亲自上场,用一篇论文展示了其可行性。在这篇论文中,苹果提出了一种内存高效型反向传播(MeBP)。该方法可在内存使用量和计算时间之间提供比零阶优化(ZO/zeroth-order optimization)更好的权衡,同时还比 ZO 基线收敛更快、性能
2025年10月28日,北京的秋风裹挟着落叶,我在咖啡馆里刷着手机,一条推送跃入眼帘:美国1X公司推出NEO——全球首款面向消费者的家用人形机器人,预售价2万美元起。这不是科幻电影的续集,而是现实中那个“回家只为倒头就睡”的都市人梦寐以求的帮手。想象一下,下班
这篇文章深入探讨了Agent系统开发中“可运行”与“可信赖”之间的巨大差距,指出当前框架虽然降低了开发门槛,但并未解决生产环境中的核心工程挑战。以下是对文章主要观点的总结:
今天看一篇发表在ACL顶会,关于多模态大语言模型的综述文章《The Revolution of Multimodal Large Language Models: A Survey》。
Langchain提供了一套工具、组件和接口,简化了创建LLM应用的过程。官方解释:they use an LLM to determine which actions to take and in what order. An action can eith
因为AI一旦作用于学生,一旦操作不当,有些副作用恐怕不易解决。除了大家熟知的“幻觉”问题外,MIT最近一篇论文中提出的“认知债务”则是更严重的副作用
家庭人形机器人真的来了,1X人形机器人NEO正式发布,具备自主学习、语音交互、远程遥控等多种功能,旨在融入家庭环境,完成各类家务
前OpenAI联合创始人JohnSchulman又搞大事了!这次他跟着Anthropic、ThinkingMachinesLab的团队,做了个能扒光LLM规范“家底”的研究。
在麻省理工学院的一场讲座上,图灵奖得主、Meta首席AI科学家LeCun,把矛头对准了现在火得不行的人形机器人产业和大语言模型技术。
接下来发生的事挺有意思,也挺直观的:在他们的测试里,把传统的图形界面(GUI)那套一步步点的命令式操作,换成声明式的接口后,Agent在像Word、Excel、PowerPoint这种办公软件上的成功率,从大概44%直接飙到74%。更让人眼前一亮的是,超过61
Qwen 于 9 月发布了首批 Qwen3-VL 模型。他们首先发布了 Qwen3-VL-235B-A22B,然后逐步发布了基于 Qwen3 A30B-A3B、8B 和 4B 的模型。它们都可以在 Hugging Face Hub 上找到(Apache 2.0
本文第一作者杨震,香港科技大学(广州)博士生,研究方向是多模态理解与生成等。本文通讯作者陈颖聪,香港科技大学(广州)助理教授,主要研究课题包括生成模型、具身智能等。
"给我一个足够长的提示词,我就能撬动整个AI世界。" —— 改写自阿基米德